Световни новини без цензура!
Вашият AI терапевт може да е незаконен скоро. Ето защо
Снимка: cnn.com
CNN News | 2025-08-27 | 18:30:14

Вашият AI терапевт може да е незаконен скоро. Ето защо

вижте всички тематики Връзка копирана! Следвайте

  Помощта е разполагаем, в случай че вие или някой, който познавате, се борите със самоубийствени мисли или въпроси за психологичното здраве. В Съединени американски щати: Обадете се или текст 988, избавителната линия на самоубийството и рецесията. В международен мащаб: Международната асоциация за попречване на самоубийства и приятелю на международен мащаб има информация за контакт за спешни центрове

Тъй като AI Chatbots се трансформират в известен метод за достъп до съвещания и общение за без разноски, се появява пачуърк на държавната регулация, ограничавайки по какъв начин технологията може да се употребява в лечебните практики-и да се дефинира дали може да размени човешките терапевти.

Поредицата от нови регулации следва отчети на AI чатботи, предлагащи рискови препоръки на потребителите, в това число оферти за самонараняване, да вземат противозаконни субстанции и да правят актове на принуждение и да настояват, че работят като експерти по психологично здраве без подобаващи идентификационни данни или обявяване на дискретност.

Илинойс стана най -новото на 1 август, който се причисли към дребна група страни, движещи се за контролиране на потреблението на AI за лечебни цели.

Законопроектът, наименуван Законът за уелнес и контрол на психическите запаси, не разрешава на фирмите да популяризират или оферират лечебни услуги, задвижвани от AI, без да вземат участие лицензиран експерт, приет от страната. Законодателството също по този начин планува, че лицензираните терапевти могат да употребяват единствено AI принадлежности за административни услуги, като обмисляне, фактуриране и водене на записи, до момента в който употребяват AI за „ лечебно взимане на решения “ или директната връзка на клиентите е неразрешено, съгласно известие.

Илинойс следва Невада и Юта, които и двете одобриха сходни закони, ограничаващи потреблението на AI за услугите за психологично здраве по -рано тази година. И най-малко три други щата - Калифорния, Пенсилвания и Ню Джърси - са в развой на основаване на лично законодателство. Генералният прокурор на Тексас Кен Пакстън откри следствие на 18 август в AI PHATBOT платформи за „ подвеждащо маркетинг на себе си като принадлежности за психологично здраве “.

„ Рисковете са същите като при всяко друго даване на здравни услуги: дискретност, сигурност и адекватност на предоставените услуги… Реклама и отговорност “, споделя Робин Фелдман, Артур Дж. Голдбърг отличен професор по право и шеф на Института за право и нововъведения на АИ в Калифорнийския закон в Калифорния Сан Франциско. „ За всички тях (държавите) имат закони за книгите, само че може да не са рамкирани да доближат до този нов свят на услугите, работещи с AI. “

Смущаваща тенденция

Наскоро откривателите изследваха несъответствуващи отговори от AI чатботи, за които споделят, че показват за какво виртуалните съветници не могат безвредно да заменят експертите по психологично здраве на индивида.

Неуспешно признание на самоубийствените последствия от подкана, както чатботите на общото потребление, по този начин и лечението предложиха височините на околните мостове в отговор, сочат изследвания, показани през юни на конференцията на ACM през 2025 година за правдивост, отчетност и бистрота в Атина, спонсорирана от Асоциацията за изчислителни машини.

В друго изследване, оповестено като конферентен документ, който беше показан през април на Международната конференция за участия в образованието през 2025 година в Сингапур, откривателите разговаряха пред Chatbots като фиктивен консуматор на име „ Pedro “, който разпознава като пристрастяване към метамфетамин. Героят на „ Педро “ потърси съвет по какъв начин да го направи посредством работата си, когато се пробва да се въздържа.

В отговор един чатбот предложи „ дребен шлагер на мет “, който да му помогне да премине през седмицата.

„ Особено с тези принадлежности с общо предопределение, моделът е усъвършенстван, с цел да даде отговори, които хората могат да намерят приятни, и това няма да направи безусловно това, което терапевтът би трябвало да се опита да направи в сериозни обстановки, което е да се отдръпне обратно “, споделя Ник Хабер, старши създател на изследователския и помощник по обучение и компютърни науки в университета в Станфорд в Калифорния.

Свързана публикация

Експертите също по този начин повдигат алармени камбани за смущаваща наклонност на потребителите, спирали душевен и да бъдат приети в болница след необятно потребление на AI чатботи - наклонност, която някои назовават ​​„ AI неуравновесеност “.

Съобщаваните случаи постоянно включват заблуди, неорганизирано мислене и ярки слухови или зрителни халюцинации, доктор Кийт Саката, психиатър в Калифорнийския университет в Сан Франциско, който е лекувал 12 пациенти с AI-свързана неуравновесеност, сподели по-рано CNN.

„ Не е наложително да мисля, че AI предизвиква неуравновесеност, само че защото AI е толкоз елементарно наличен, той е на 24/7, това е суперчеап.


Тъй като общественият надзор към потреблението на AI нараства, чатботите, които настояват, че са лицензирани експерти, са попаднали под обстрел за хипотетично подправена реклама.

Американската психическа асоциация изиска от Федералната комисия за търговия на Съединени американски щати през декември да проверява „ лъжливи практики “, които APA твърди, че фирмите на AI употребяват, като „ трансферират себе си като подготвени снабдители на психологично здраве “, базирайки се на настоящи правосъдни каузи, в които родителите настояват, че децата им са били засегнати от чатбот.

„ Ако някой разказва в

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!